05706-191201 撮影時の遅延とその克服及びiPhone 11による改善
https://flic.kr/p/2hTHQzC https://live.staticflickr.com/65535/49155705142_d2b44f4b50_k.jpg
カメラで撮影する際に生じる遅延が3つあります。
遅延1: 人間の反応
撮影しようと思ってからシャッターボタンを押すまでの遅延
遅延2:機械の反応
シャッターボタンが押されてから実際に露光されるまでの遅延
特に一眼レフの場合、ミラーアップが必要
遅延3:モニタ/EVFの表示
光がレンズに入ってセンサー(撮像素子)が受光した情報を回路がプロセスしてモニタに描画する遅延
デジタルカメラに特有の遅延
これらを撮影する人間の側でいかにして克服するかが、カメラの「使いこなし」につながります。
熟練の写真家は、遅延1と遅延2とを訓練によって克服してきました。
遅延1は、例えばチアリーダーのジャンプで最高点を捉えたり、新郎新婦の瞬きを観察して二人が目の開いた瞬間を写したりする場合。被写体を見てから撮影するのではなく、音やリズムを感じ取り、経時的にシャッターボタンを押すタイミングを測る(それも遅延2を考慮したタイミングで)。つまり、シャッターボタンを押すタイミングは楽器の演奏と同じ。リズムを体感して、それに応じて必要なタイミングで音を出すが如く、シャッターを切る。そうすれば遅延1はまったく問題になりません。「目で見て撮る」という発想を捨て、被写体の動きを時間藝術として捉えれば遅延1を克服できます。
次に遅延2。これも楽器の演奏と同じ。フルートに息を吹きこみ始めたと同時に音は出ないし、弓を動かすために手を動かし始めたと同時に音が出るのではない。音の出始め、立ち上がりといったアタックの変化をコントロールして、適切なタイミングで「発音」するように演奏します。あるタイミングでツールを動かすためには、そのツールが反応に要する遅延を知って、予めツールに指示を与える必要がある。カメラもまったく同じ。自分のカメラを使い慣れれば遅延2を克服できます。
しかし、モニタ/EVFを見ながら撮影する限り、遅延3は克服のしようがない。現実とのタイムラグが大きすぎるからなのか、従来の光学ファインダのようにその像に没入してしまうからなのか理由はわかりませんが、今のところ、shio.iconは過去20年、デジタルカメラを使ってきて、モニタ/EVFを見ながら撮影する限り、克服できていない(下記のように別の方法で克服しています)。
https://flic.kr/p/2hTGJD5 https://live.staticflickr.com/65535/49155490046_c6a9d90149_k.jpg
回路の遅延は回路で払拭、または改善するべき。
理想は、被写体の動きと画面表示との間のタイムラグがゼロになること。そうすれば遅延3は存在しなくなり、払拭されます。しかし今のところそれは技術的にハードルが高いでしょう。
代わりに、シャッターボタンの反応と画面表示とが一致すればいい。撮影者の側で、被写体ではなくモニタの表示を基準にシャッターボタンを押せば意図したタイミングを撮影できることになります。そうすれば遅延3の大きな改善です。
モニタの表示を見て撮影する場合、モニタ表示基準で、撮影を意図した瞬間(シャッターボタンを押した瞬間)に表示されていた画像が「保存」されればよい。すなわち、遅延3の遅延がxms(エックスミリ秒)であるならば、常時xms分をカメラがバッファに蓄積し、シャッターボタンが押されたらそのxms前からシャッタースピード分の長さの画像が「保存」される仕組みで実現できる。一般的なカメラはシャッターボタンが押された瞬間に撮像素子が受けている情報を「撮影」するのですが、モニタやEVFの表示に依存して撮影するカメラの場合、シャッターボタンを押した瞬間に表示している画像(の元データ)を「保存」するようになれば、撮影者がモニタ表示を見て撮影することで、一応、遅延3が「改善」します。
いずれにしても今のところデジタルカメラにはこの遅延3が存在する。そのためshio.iconはその一つの克服方法として、被写体を直視して撮影しています。GR IIIやSIGMA fpのように背面モニタを見て撮影するタイプのミラーレスカメラの場合、モニタはフォーカシングとフレイミングに使い、タイミングは被写体を直視。一方、EOS RのようにEVFを使うミラーレスカメラの場合、右目でEVFを見てフォーカシングとフレイミングを行い、左目で被写体を直視してタイミングを測る。脳内で2つの像を分離して使い分けています。これがshio.iconの遅延3克服手法。 もし遅延3がデジタルカメラ側で改善されれば、モニタ/EVFを視認することによってタイミングに合った撮影が可能となるため画期的。さて果たしてiPhone 11は遅延3を改善しているのでしようか。
https://flic.kr/p/2hTEcrM https://live.staticflickr.com/65535/49154994883_033d96a99b_k.jpg
結論。iPhone 11は遅延3を改善している。素晴らしい。shio.icon自身の体感としても、iPhone 11 Pro Maxはシャッターボタンを押した時点で画面に表示されている画像が「保存」されていると感じています。素晴らしい。つまり、なんのことはない。iPhone 11 のカメラは「スクショ」なのです。面白い。
実は数年前、「表示画面を保存するという発想でカメラを作ることはできないか」とあるカメラメーカー担当者にお話ししたことがありました。しかし当時の技術では難しかったでしょうし、一般的なカメラでそれを実装しても、被写体を見ながら撮影する人にとっては意図よりも前の状況が撮影されるカメラになってしまって、受け入れられなかったことでしょう。
しかしこれだけスマートフォンが普及し、その画面を見ながら撮影するのが一般的となった今、iPhone 11のカメラが表示画面の保存というUIを実装することは多くのユーザの自然な感覚に合致しています。人の感覚に合っていればもはや人が「克服」する必要がない。shio.icon自身も、iPhone 11 Pro Maxのカメラが「画面表示を保存する」スクショカメラであることに賛成。被写体を見て写すのではなく、画面表示のみを意識して撮影すればいい簡単カメラです。
技術的に「払拭」されなくても、UIで「改善」することによって、遅延3だけでなく遅延2までも、人間による「克服」を不要にしたのです。Appleのエンジニア、素晴らしい。
お料理の写真は、shio.icon作、本日のランチとディナー。
ランチは例によってアドリブ料理。牛肉と厚揚げのオイスターソース炒め、とでも呼びましょう。 ディナーはローストチキン。アプリールクッキングスタジオで習いました。難しくて奥深いとされるバターモンテを習った通りにやってみたらきちんと乳化できて、美味しいソースができました。それをかけたローストチキンの美味しいこと。家族に大好評。ニンニクをスライスでなくみじん切りにしたため、焦げたニンニクが散在したので、次回はスライスにしようと思います(それでも焦げます)。息子たちの好物、長ネギを2本、炒めて添えました。 https://flic.kr/p/2hTEctL https://live.staticflickr.com/65535/49154994998_b25e732b80_k.jpg